A Nvidia superou todas as expectativas na quarta-feira, anunciando lucros exorbitantes impulsionados por suas unidades de processamento gráfico (GPUs) que se destacam no processamento de cargas de trabalho de inteligência artificial. Mas outras classes de chips de IA estão começando a ganhar força.
Todos os principais provedores de nuvem estão agora projetando seus próprios circuitos integrados de aplicação específica (ASICs), desde o TPU do Google até o Trainium da Amazon, passando pelos planos da OpenAI com a Broadcom. Esses chips são menores, mais baratos, mais fáceis de usar e podem reduzir a dependência dessas empresas das GPUs da Nvidia. Daniel Newman, do Futurum Group, disse à CNBC que espera que os chips ASIC "cresçam mais rápido do que o mercado de GPUs nos próximos anos".
Além das GPUs e dos ASICs, existem os FPGAs (Field-Programmable Gate Arrays), que podem ser reconfigurados após a fabricação para usos como processamento de sinais, redes e IA. E há toda uma geração de chips de IA projetados para funcionar diretamente em dispositivos, em vez de na nuvem — um segmento liderado por empresas como Qualcomm e Apple.
A CNBC conversou com especialistas e pessoas de dentro das principais empresas de tecnologia para analisar esse cenário competitivo e os diferentes tipos de chips de IA.
GPUs para computação de propósito geral
As GPUs, que antes eram usadas principalmente em videogames, transformaram a Nvidia na empresa de capital aberto mais valiosa do mundo ao se tornarem o motor da inteligência artificial moderna. A Nvidia vendeu aproximadamente 6 milhões de unidades de suas GPUs "Blackwell" de última geração no ano passado.
A transição dos jogos para a IA começou em 2012, quando pesquisadores treinaram a rede neural AlexNet usando GPUs da Nvidia — um avanço que muitos consideram o estopim da revolução moderna da IA. A AlexNet competiu em um concurso de reconhecimento de imagens de alto nível e utilizou GPUs em vez de CPUs, alcançando uma precisão impressionante e uma grande vantagem competitiva.
A mesma capacidade de processamento paralelo que torna as GPUs capazes de renderizar gráficos realistas também as torna ideais para treinar modelos de aprendizado profundo, que aprendem a partir de dados em vez de programação explícita.
Atualmente, as GPUs são vendidas para sistemas de data center em conjunto com CPUs para executar cargas de trabalho de IA baseadas em nuvem. As CPUs possuem alguns núcleos poderosos para tarefas sequenciais, enquanto as GPUs têm milhares de núcleos menores especializados em operações paralelas, como multiplicação de matrizes.
Graças à capacidade de executar um número massivo de operações simultaneamente, as GPUs são ideais tanto para treinamento quanto para inferência. O treinamento ensina os modelos de IA a encontrar padrões em grandes conjuntos de dados; a inferência utiliza esses modelos para tomar decisões com base em novas informações.
As GPUs continuam sendo o principal motor de processamento da Nvidia e de sua concorrente mais próxima, a AMD. O software é um diferencial fundamental entre elas: a Nvidia se baseia em seu ecossistema CUDA, enquanto a AMD oferece uma plataforma em grande parte de código aberto.
Ambas as empresas vendem GPUs em nuvem para provedores como Amazon, Microsoft, Google, Oracle e CoreWeave, que por sua vez alugam o poder computacional para desenvolvedores de IA.
O acordo de US$ 30 bilhões da Anthropologie com a Nvidia e a Microsoft, por exemplo, inclui o equivalente a 1 gigawatt de capacidade computacional baseada em hardware da Nvidia. A AMD também garantiu recentemente importantes compromissos da OpenAI e da Oracle.
A Nvidia também vende diretamente para governos e empresas de IA — incluindo pelo menos 4 milhões de GPUs para a OpenAI — e para governos estrangeiros, como os da Coreia do Sul, Arábia Saudita e Reino Unido.
A empresa informou à CNBC que cobra aproximadamente US$ 3 milhões por gabinete de servidor contendo 72 GPUs Blackwell e que envia cerca de 1.000 desses gabinetes por semana.
Dion Harris, diretor sênior de infraestrutura de IA da Nvidia, disse que jamais imaginou que a demanda cresceria a esse nível. "Quando conversávamos com empresas sobre um sistema com oito GPUs anos atrás, elas achavam que era um exagero."
ASICs para IA especializada em nuvem
O treinamento baseado em GPUs impulsionou a primeira onda de grandes modelos de linguagem, mas a inferência tornou-se cada vez mais importante à medida que os modelos amadurecem. A inferência pode ser executada em chips menos flexíveis e de menor custo, construídos especificamente para determinadas operações matemáticas — e é aí que entram os ASICs.
Se uma GPU é um "canivete suíço" capaz de executar diversas tarefas em paralelo, um ASIC é uma ferramenta de propósito único — extremamente rápida e eficiente, mas limitada a um único tipo de operação após a fabricação.
“Não é possível alterar esses chips depois que eles são gravados no silício”, disse Chris Miller, autor de *Chip War*. “Há uma relação de compromisso entre eficiência e flexibilidade.”
As GPUs da Nvidia são versáteis o suficiente para atender a inúmeras necessidades de IA, mas são caras (chegando a custar US$ 40.000 por unidade) e difíceis de obter. As startups dependem delas em parte porque projetar um ASIC personalizado pode custar dezenas de milhões.
No entanto, as gigantes da computação em nuvem estão investindo pesadamente em ASICs porque eles prometem grandes economias em larga escala.
“Essas empresas querem mais controle sobre as cargas de trabalho que criam”, disse Newman. “Mas elas continuarão trabalhando com a Nvidia e a AMD — a demanda por computação é enorme.”
O Google foi o primeiro a construir um ASIC de IA personalizado, lançando a Unidade de Processamento Tensorial (TPU) em 2015. O trabalho começou em 2006, mas tornou-se urgente em 2013, quando o Google percebeu que a IA poderia dobrar o tamanho de sua infraestrutura de data centers. Em 2017, a TPU ajudou a viabilizar a arquitetura Transformer, que sustenta a maior parte da IA moderna.
Em novembro, o Google revelou a TPU de sétima geração. A Anthropic treinará seu modelo Claude em um milhão de TPUs. Alguns acreditam que as TPUs rivalizam — ou superam — as GPUs da Nvidia.
“Muitas pessoas esperam que o Google eventualmente disponibilize as TPUs de forma mais ampla”, disse Miller.
Após adquirir a Annapurna Labs em 2015, a AWS lançou seus próprios chips. Em 2018, lançou o Inferentia e, em 2022, o Trainium3, com previsão de lançamento em breve.
A Amazon afirma que o Trainium oferece uma relação custo-benefício de 30% a 40% melhor do que as alternativas. A Anthropic utiliza atualmente meio milhão de chips Trainium2 para treinar seus modelos.
Para construir ASICs personalizados, os provedores de nuvem dependem de empresas como a Broadcom e a Marvell, que fornecem propriedade intelectual essencial e conhecimento especializado em redes. "É por isso que a Broadcom se tornou uma das maiores vencedoras do boom da IA", disse Miller.
A Broadcom ajudou a projetar as TPUs do Google e os aceleradores da Meta de 2023 e está construindo chips personalizados para a OpenAI a partir de 2026.
A Microsoft desenvolveu o Maia 100. A Qualcomm tem o A1200. A Intel oferece a linha Gaudi. A Tesla está trabalhando em seu chip AI5. Startups como Cerebras e Groq estão impulsionando arquiteturas inovadoras.
Na China, a Huawei, a ByteDance e a Alibaba estão projetando seus próprios ASICs, apesar das restrições de exportação dos EUA.
Inteligência artificial em nível de dispositivo com NPUs e FPGAs
Uma terceira categoria de chips de IA é projetada para executar modelos diretamente nos dispositivos, em vez de por meio da nuvem. Esses chips são normalmente integrados a sistemas em chip (SoC) e são conhecidos como processadores de IA de borda. Eles permitem que os recursos de IA sejam executados localmente e com eficiência, preservando a duração da bateria e a privacidade.
“Você poderá executar tarefas de IA diretamente no seu telefone com latência extremamente baixa”, disse Saif Khan, ex-conselheiro de IA e tecnologia da Casa Branca. “E sem enviar dados para um centro de dados.”
As Unidades de Processamento Neural (NPUs) são uma parte importante dessa categoria, desenvolvidas pela Qualcomm, Intel, AMD e outras empresas.
A Apple não usa o termo NPU, mas incorpora um "motor neural" em seus chips da série M para Mac e em seus chips da série A para dispositivos móveis.
“Essa abordagem provou ser incrivelmente eficaz”, disse Tim Millet, vice-presidente de arquitetura de plataforma da Apple. “É rápida e nos dá mais controle sobre a experiência.”
Os chips Snapdragon em celulares Android, as NPUs personalizadas da Samsung e os processadores de IA de ponta da NXP e da Nvidia alimentam a IA em carros, robôs, câmeras e dispositivos domésticos inteligentes.
“A maior parte dos gastos hoje ainda está em centros de dados”, disse Miller. “Mas isso vai mudar à medida que a IA se espalhar para telefones, carros, dispositivos vestíveis e tudo mais.”
Os FPGAs oferecem ainda mais flexibilidade, pois podem ser reprogramados após a fabricação, embora sejam menos eficientes em termos de energia do que os ASICs ou NPUs.
A AMD se tornou a maior fabricante de FPGAs após adquirir a Xilinx por US$ 49 bilhões em 2022. A Intel ocupa o segundo lugar depois de comprar a Altera por US$ 16,7 bilhões em 2015.
Resumindo: a Nvidia ainda está muito à frente.
Todas essas empresas de chips de IA dependem de um único fabricante: a TSMC, em Taiwan.
A TSMC está construindo uma enorme fábrica no Arizona, para onde a Apple transferirá parte de sua produção. O CEO da Nvidia, Jensen Huang, afirmou em outubro que as GPUs Blackwell também atingiram a "produção plena" naquele local.
Apesar do mercado cada vez mais concorrido, desbancar a Nvidia continua sendo extremamente difícil.
“A Nvidia está nessa posição porque a conquistou”, disse Newman. “Ela passou anos construindo esse ecossistema de desenvolvedores — e foi ela que venceu.”
A maioria dos índices de ações dos EUA subiu na sexta-feira, com o ressurgimento do otimismo em relação a possíveis cortes nas taxas de juros pelo Federal Reserve.
John Williams, presidente do Fed de Nova York, afirmou na sexta-feira que espera que o banco central tenha mais espaço para reduzir as taxas de juros. O influente membro do comitê, falando no Chile, observou que os riscos para o mercado de trabalho agora superam os relacionados à inflação, ecoando a postura dos membros mais moderados do FOMC.
Williams afirmou: “Considero que a política monetária ainda é moderadamente restritiva, embora menos do que antes das nossas recentes ações. Portanto, continuo a ver espaço para um ajuste adicional de curto prazo na meta para a taxa de juros dos fundos federais, a fim de aproximar a política da neutralidade e manter o equilíbrio entre os nossos dois objetivos.”
No pregão, o Dow Jones Industrial Average subiu 0,4% (185 pontos), para 45.937, às 16h15 GMT. O índice S&P 500, mais abrangente, avançou 0,1% (7 pontos), para 6.545, enquanto o Nasdaq Composite ganhou 0,1% (38 pontos), para 22.040.
Os preços do paládio ampliaram sua queda na sexta-feira, pressionados por um dólar americano mais forte, incerteza sobre a demanda e expectativas de maior oferta.
A Reuters informou, citando fontes bem informadas, que os Estados Unidos estão pressionando a Ucrânia, em privado, para que aceite um acordo de cessar-fogo com a Rússia. Tal desenvolvimento provavelmente impulsionaria a oferta global de metais industriais, à medida que as sanções contra a Rússia — um dos maiores exportadores mundiais de paládio — fossem atenuadas.
Segundo a Capital.com, os preços do paládio subiram cerca de 26% desde o início de outubro, chegando a aproximadamente US$ 1.500 por onça. Essa alta ocorreu em paralelo com os ganhos no mercado de platina e com uma melhora generalizada nas condições financeiras globais.
As apostas em cortes nas taxas de juros dos EUA e a fraqueza anterior do dólar também deram suporte ao paládio, como parte da chamada alta "ouro + liquidez" que impulsionou os metais preciosos nas últimas semanas.
O paládio é usado quase exclusivamente em conversores catalíticos para motores a gasolina, o que significa que qualquer volatilidade de preço afeta diretamente as estruturas de custos para montadoras de automóveis e fabricantes de eletrônicos dos EUA.
A análise técnica da Monex indica resistência entre US$ 1.500 e US$ 1.520 por onça, com expectativas de uma tendência geral de alta, mas com negociações voláteis pela frente. Analistas do CPM Group observaram que a recente valorização do paládio está "intimamente ligada ao desempenho da platina", alertando, porém, que um mercado de trabalho americano em desaceleração e a inflação persistente podem afetar a demanda.
Apesar de uma trégua comercial recentemente anunciada entre os EUA e a China, declarações de autoridades americanas sugerem que as tensões permanecem elevadas. O Secretário do Tesouro dos EUA afirmou que a China continua sendo um parceiro comercial pouco confiável, enquanto o presidente Donald Trump reiterou que seu governo não permitirá a exportação de chips avançados da Nvidia para a China ou outros países.
O índice do dólar americano subiu 0,1%, para 100,2, às 14h43 GMT, oscilando entre uma máxima de 100,4 e uma mínima de 99,9.
Os contratos futuros de paládio para entrega em dezembro caíram 0,9%, para US$ 1.374 por onça, às 14h43 GMT.
O Bitcoin chegou a cair brevemente para US$ 81.871,19 no início da sexta-feira, antes de se estabilizar perto de US$ 82.460, uma queda de cerca de 10,2% nas últimas 24 horas.
Após quase um mês de vendas persistentes, o Bitcoin está agora sendo negociado 10% abaixo do seu nível no início do ano, tendo apagado a maior parte dos ganhos obtidos após a vitória eleitoral de Donald Trump no ano passado.
A última vez que o Bitcoin caiu abaixo de US$ 82.000 foi em abril, quando chegou a US$ 75.000, durante uma ampla onda de vendas no mercado desencadeada pelo anúncio de Trump sobre tarifas abrangentes no evento do "Dia da Libertação".
Com base em dados da Deribit — a corretora de opções e futuros pertencente à Coinbase — a CoinDesk informou que os investidores estão se posicionando para novas quedas no mercado.
Ethereum, a segunda maior criptomoeda em valor de mercado, caiu abaixo de US$ 2.740, uma queda de mais de 9,6% em 24 horas. Outros tokens importantes também sofreram forte pressão, com XRP, BNB e SOL caindo 9,1%, 8,4% e 10,6%, respectivamente. Dogecoin — a maior criptomoeda meme — perdeu 10,3% no mesmo período.
Após atingir novos recordes históricos no início do mês passado, o mercado de criptomoedas sofreu quedas constantes após uma perda sem precedentes em um único dia, em 10 de outubro, quando US$ 19,37 bilhões em posições alavancadas foram liquidados em 24 horas. O evento foi desencadeado pelo anúncio de Trump de uma tarifa adicional de 100% sobre as importações chinesas — uma medida que ele posteriormente revogou. Os ativos digitais também foram afetados pela volatilidade generalizada do mercado nos últimos dias, com mais de US$ 2,2 bilhões liquidados em 24 horas, segundo a CoinGlass.
O valor total de mercado de todas as criptomoedas agora está em US$ 2,92 trilhões, de acordo com a CoinGecko — uma queda de 33% em relação ao pico de aproximadamente US$ 4,38 trilhões atingido no início de outubro. Desde o início deste mês, a capitalização de mercado do Bitcoin caiu cerca de 25%, marcando a maior queda mensal desde a crise das criptomoedas de 2022, segundo a Bloomberg.
As ações da Strategy (antiga MicroStrategy) — amplamente vista como um indicador do Bitcoin devido às suas enormes reservas — caíram 2,44% nas negociações pré-mercado na sexta-feira, após uma queda de 11% na última semana e de 41% nos últimos 30 dias. A empresa detém atualmente 649.870 BTC a um preço médio de compra de US$ 74.430.
Em uma nota divulgada no início desta semana, analistas do JPMorgan alertaram que a Strategy corre o risco de ser excluída de importantes índices, como o Nasdaq 100 e o MSCI USA. Tal exclusão poderia levar a novas quedas no preço de suas ações e, potencialmente, afetar negativamente os mercados de criptomoedas caso a empresa seja obrigada a vender parte de suas reservas de Bitcoin.